更小更强大的 GPT-4o mini 背后,AI 模型的未来不再是越大越好
更小更强大的 GPT-4o mini 背后,AI 模型的未来不再是越大越好不是大模型用不起,而是小模型更有性价比。
不是大模型用不起,而是小模型更有性价比。
最近,Latent Space发布的播客节目中请来了Meta的AI科学家Thomas Scialom。他在节目中揭秘了Llama 3.1的一些研发思路,并透露了后续Llama 4的更新方向。
最近两款大型 AI 模型相继发布。
用来运行 Llama 3 405B 优势明显。
紧跟着Meta的重磅发布,Mistral Large 2也带着权重一起上新了,而且参数量仅为Llama 3.1 405B的三分之一。不仅在编码、数学和多语言等专业领域可与SOTA模型直接竞争,还支持单节点部署。
AI 竞赛正以前所未有的速度加速,继 Meta 昨天推出其新的开源 Llama 3.1 模型之后,法国 AI 初创公司 Mistral AI 也加入了竞争。
Llama 3.1 405B“最强模型”宝座还没捂热乎,就被砸场子了——
榨干16000块H100、基于15亿个Tokens训练。
大模型格局,再次一夜变天。Llama 3.1 405B重磅登场,在多项测试中一举超越GPT-4o和Claude 3.5 Sonnet。史上首次,开源模型击败当今最强闭源模型。小扎大胆豪言:开源AI必将胜出,就如Linux最终取得了胜利。
最强大模型Llama 3.1,上线就被攻破了。